134 research outputs found

    Un algorithme efficace de suivi d'objets dans des séquences d'images

    Get PDF
    National audienceNous proposons dans cet article une approche permettant de suivre efficacement et rapidement le déplacement d'un motif visuel dans une séquence d'images. Cette technique consiste d'une part, en une étape hors ligne dédiée à l'apprentissage d'une matrice d'interaction liant la déformation du motif à son déplacement dans l'image, et d'autre part à l'exploitation en ligne de cette matrice pour suivre l'évolution du motif choisi. Cette seconde étape itérative consiste à prédire la position dans l'image du motif (en position, échelle et orientation), à calculer la différence du motif observé à l'endroit prédit avec le motif de référence, puis à réaliser le produit entre la matrice d'interaction et cette différence pour obtenir un vecteur correctif sur la position prédite. Nous montrons que cette étape de correction correspond à un co^ut algorithmique très faible permettant une mise en oeuvre en temps réel vidéo. Dans la partie expérimentale, nous appliquons successivement ce principe au suivi d'un motif texturé dans une séquence d'images, puis au suivi d'objets volumiques (dans ce cas le motif de référence évolue dans le temps en fonction de l'orientation relative objet/caméra). De nombreux résultats expérimentaux sont présentés et commentés

    Real Time 3D Template Matching

    Get PDF
    International audienceOne of the most popular methods to extract useful information from an image sequence is the template matching approach. In this well known method the tracking of a certain feature or target over time is based on the comparison of the content of each image with a sample template. We propose a 3D template matching algorithm that is able to track targets corresponding to the projection of 3D surfaces. With only a few hundred subtractions and multiplications per frame, our algorithm provides, in real time, an estimation of the 3D surface pose. The key idea is to compute the difference between the current image content and the visual aspect of the target under the predicted spatial attitude. This difference image is converted into corrections on the 3D location parameters

    Mise en correspondance multi-échelle

    Get PDF
    National audienceCette article traite de la mise en correspondance de primitives de type point d'intérêt. Ces primitives sont extraites automatiquement de zones de l'image riches en information de luminance. Elles sont donc particulièrement intéressantes dans un contexte de mise en correspondance. Nous proposons ici une description locale et multi-échelles de ces primitives directement basée sur le signal de luminance. Cette description est invariante aux rotations et translations de l'image et très robuste aux changements d'échelles. L'algorithme de mise en correspondance comprend 4 étapes : l'extraction des primitives, leurs caractérisation, la recherche des points semblables, et enfin le filtrage des couples erronés

    Descripteur local d'image invariant aux transformations affines

    Get PDF
    National audienceCet article présente une technique de description locale de l'image. Le descripteur s'appuie sur un histogramme de gradients orientés et un domaine d'exploration adaptif (obtenu par le biais d'un tenseur de structure ou d'une analyse de Fourier), afin de gérer les invariances aux transformations affines

    Comment calibrer extrinsèquement des caméras à champs non-recouvrants ? Application pour un robot mobile

    Get PDF
    National audienceMulti-camera systems are more and more used in visionbased robotics. An accurate extrinsic calibration (camera relative poses) is usually required. In most of cases, this task is done by matching features through different views of the same scene. However, if the camera fields of view do not overlap, such a matching procedure is not feasible anymore. This article deals with a simple and flexible extrinsic calibration method, for non-overlapping camera rig. The aim is the calibration of non-overlapping cameras embedded on a vehicle, for visual navigation purpose in urban environment. The cameras do not see the same area at the same time. The calibration procedure consists in manoeuvring the vehicle while each camera observes a static scene. Previously, the camera were intrinsically calibrated. The main contributions are a study of the singular motions and a specific bundle adjustment which both reconstructs the scene and calibrates the cameras. Solutions to handle the singular configurations, such as planar motions, are exposed. The proposed approach has been validated with synthetic and real data. This article is translated from [19].Les systèmes multi-caméras sont de plus en plus utilisés en robotique mobile. Il est souvent nécessaire que l'étalonnage extrinsèque (poses relatives des caméras) soit précis. Pour cela, on utilise généralement des appariements entre différentes vues, ce qui est impossible à réaliser si les champs de vue des caméras sont disjoints. Dans cet article, nous exposons une méthode simple et flexible pour étalonner extrinsèquement un système multicaméras dont les champs de vue sont disjoints. Le but est de calibrer des caméras embarquées sur un véhicule pour des applications de navigation en milieu urbain. Les caméras observent donc des régions différentes à un instant donné. La procédure d'étalonnage consiste à manoeuvrer le véhicule pendant que chaque caméra, intrinsèquement calibrée au préalable, observe une scène statique. Les principales contributions sont l'étude des mouvements singuliers, et un ajustement de faisceaux spécifique qui affine les scènes, les poses du système multi-caméras, et calibre extrinsèquement les caméras. Nous étudions comment traiter les mouvements singuliers, comme les mouvements plans. La méthode proposée est validée avec des données synthétiques et réelles. Traduction depuis l'anglais de l'article [19]

    Vers une construction collaborative de bases d'amers géo-référencées pour la localisation en ligne d'un véhicule en milieu urbain

    Get PDF
    National audienceL'aide à la navigation par Réalité Augmentée RA nécessite une estimation précise des six paramètres de la camera. Pour ceci, les solutions de localisation par vision passent par une étape de modélisation hors ligne de l'environnement. Tandis que les solutions existantes exigent des matériels coûteux et/ou un temps d'exécution très important, nous proposons dans cet article un processus qui crée automatiquement une modélisation précise de l'environnement en utilisant uniquement une caméra standard, un GPS bas coût et des modèles SIG Système d'Informations Géographique disponible gratuitement

    Localisation temps-réel d'objets complexes

    Get PDF
    International audienceCet article adresse la problématique de localisation en temps-réel d'une caméra RGB vis à vis d'un objet complexe, c'est à dire peu texturé, présentant des surfaces courbes et peu de contours francs. Plus précisément, ces travaux proposent une solution compatible avec les exigences de qualité et de facilité d'exploitation requises par les applications industrielles. Pour cela, une méthode de SLAM contraint à un modèle CAO est combinée avec une méthode d'identification de points de contours 3D de ce même modèle et basée sur des rendus virtuels. Les résultats obtenus à partir de données de synthèse et réelles, montrent que cette solution est robuste, précise et stable aux mouvements brusques et aux occultations, mais aussi facile à déployer et capable de gérer des objets de toute forme.</p

    GPS différentiel basé vision : Amélioration de la fusion SLAM/GPS à l'aide des modèles 3D des bâtiments

    Get PDF
    National audienceNous proposons dans cet article une solution originale pour la localisation d'un véhicule en zone urbaine. Celleci exploite uniquement des matériels peu couteux : une caméra VGA, un GPS standard et des données issues d'un Système d'Information Géographique (SIG) tel que celui de l'IGN ou d'OpenStreeMap. Comme d'autres auparavant, notre approche repose sur un module de fusion d'un SLAM visuel avec les données GPS. Cependant, en plus de l'estimation du mouvement du véhicule, notre solution se distingue par l'estimation et la correction du biais affectant les données GPS. A la manière d'un GPS différentiel, ce biais est estimé dynamiquement en comparant la reconstruction SLAM avec les modèles 3D de ville. Les données GPS, ainsi corrigées, sont alors utilisées par le module de fusion. Il en résulte une précision de localisation jusqu'ici inaccessible avec un GPS standard. Ceci a permis son exploitation dans des applications de Réalité Augmentée

    Vers la géolocalisation par vision d'une caméra mobile : exploitation d'un modèle 3D de ville et application au recalage visuel temps réel

    Get PDF
    National audienceNous proposons un algorithme qui corrige a posteriori les dérives des méthodes de SLAM. Celui-ci exploite la connaissance a priori d'un modèle 3D simple de l'environnement. Notre méthode se déroule en deux étapes successives. Tout d'abord, un alignement grossier de la reconstruction SLAM avec le modèle 3D est calculé. Pour cela, nous proposons un algorithme d'ICP non-rigide exploitant un modèle de transformations articulées original et adapté au problème. l'alignement obtenu est ensuite raffiné à l'aide d'un ajustement de faisceaux. Pour cela, nous proposons une nouvelle fonction de coût permettant d'intégrer à la fois la cohérence entre les observations 2D et les points 3D reconstruits et la cohérence géométrique avec le modèle 3D de l'environnement. La méthode complète est validée sur des séquences de synthèse et réelles de grande échelle. Enfin, nous montrons que les reconstructions obtenues sont suffisamment précises pour être directement utilisées dans des applications de localisation globale

    3D Reconstruction of Complex Structures with Bundle Adjustment: an Incremental Approach

    Get PDF
    This paper introduces an incremental method for "Structure From Motion" of complex scenes from a video sequence. More precisely, we estimate the 3D positions of the viewed points in images and the camera positions and orientations through the sequence. The method can be seen as a fast but accurate alternative to classical reconstruction methods that use bundle adjustment, and that can become slow and computation time expensive for very long scenes. Our results are compared to the reconstruction obtained by the classical hierarchical bundle adjustment method. They have also been successfully used as a reference sequence for the vision based localization of an autonomous mobile robot
    corecore